Световни новини без цензура!
Нарастващата заплаха за демокрацията от дезинформация, задвижвана от AI
Снимка: ft.com
Financial Times | 2024-01-11 | 13:12:43

Нарастващата заплаха за демокрацията от дезинформация, задвижвана от AI

Два дни преди изборите в Словакия през септември, мистериозен запис стана вирусен в социалните медии. В него кандидатът на либералната опозиция Михал Шимечка очевидно може да бъде чут да заговорничи с журналист за купуване на гласове и фалшифициране на резултата.

„Ще бъде направено по начин, по който никой не може да ви обвини във вземане на подкупи“, Шимечка предполагаемо се казва на аудиозаписа, според разпространения по това време препис на разговора. „Внимавайте, има много хора наоколо, не използвайте думата Б“, отговаря журналистът.

Най-експлозивното нещо в записа беше, че беше фалшив – сложна измама, създадена от изкуствен интелект, казаха проверяващи факти, позовавайки се на показатели като неестествена дикция и нетипични паузи.

Записът обаче беше споделен от хиляди гласоподаватели по време на мораториума върху отразяването на изборите в страната, което затрудни съюзниците на Шимечка или медиите да го развенчаят като фалшив.

Шимечка, който оглави екзитполовете, заклейми записа като „колосална, очевидна глупост“ и словашката полиция издаде предупреждение към избирателите да бъдат внимателни онлайн по отношение на нечестни актьори с „привлечени интереси“. Но Шимечка загуби гласуването от своя популистки, проруски съперник Робърт Фицо.

Извършителите остават неизвестни и точното въздействие върху резултата е невъзможно да се прецени – но епизодът предвещава нова зора за информационна война и огромно предизвикателство за социалните медийни платформи на Силициевата долина преди една историческа година на избори. Приблизително 2 милиарда души, или около половината от възрастното население на света, се очаква да се отправят към урните през 2024 г., включително в САЩ, ЕС, Индия и Обединеното кралство.

Онлайн дезинформацията е фактор в изборите от много години. Но неотдавнашният бърз напредък в технологиите за изкуствен интелект означава, че е по-евтино и по-лесно от всякога да се манипулират медии, благодарение на оживения нов пазар на мощни инструменти като ChatGPT на OpenAI, Midjourney за стартиране на изкуствен интелект или други текстови, аудио и видео генератори. В същото време манипулираните или синтетичните медии стават все по-трудни за забелязване.

Вече реалистичните дълбоки фейкове се превърнаха в нов фронт в дезинформационния пейзаж около конфликтите Израел-Хамас и Русия-Украйна. Сега те са готови да размътят водите в изборните процеси, които вече са опетнени от намаляващото обществено доверие в правителствата, институциите и демокрацията, заедно с всеобхватния нелиберализъм и политическа поляризация.

„Технологиите достигнаха този перфектен трифект от реализъм, ефективност и достъпност“, казва Хенри Айдер, експерт по AI и deepfakes и съветник на Adobe, Meta и EY. „Опасенията за въздействието върху изборите бяха преувеличени до тази година. И тогава нещата се случиха със скорост, която не мисля, че някой е очаквал.”

Властите вече издават предупреждения. В Обединеното кралство през ноември GCHQ повдигна перспективата за „хиперреалистични ботове, създадени от AI“ и все по-напреднали кампании за дълбоко фалшифициране преди изборите в страната. Двупартийна група от американски сенатори наскоро предложи законодателство за забрана на „материално измамно генерирано от AI“ в политическата реклама.

Социалните медийни платформи, включително Meta, YouTube на Google, TikTok и X, сега са изправени пред натиск да въведат предпазни огради около deepfakes, да ограничат нечестивите актьори и да гарантират, че правят правилните обаждания за модериране, когато става дума за силно двусмислени медии, като същевременно остават безпартиен.

И все пак мнозина са по-малко подготвени за това, отколкото при предишни големи избори, предупреждават експерти. Някои, включително Meta, намалиха инвестициите си в екипи, посветени на поддържането на безопасни избори след спада на технологичните акции в началото на 2023 г. В случая с X на Илън Мъск, ресурсите за модериране на съдържание бяха намалени драстично, тъй като той обеща да възстанови това, което нарича свобода на словото абсолютизъм.

Усилията на базираните в САЩ технологични групи да инвестират в проверка на фактите и справяне с дезинформацията също станаха политизирани, тъй като десните американски политици ги обвиняват в заговор с правителството и академичните среди за цензуриране на консервативни възгледи.

Множество леви експерти по дезинформация и академици предупреждават, че тази динамика принуждава платформите, университетите и правителствените агенции да се оттеглят от инициативи за почтеност на изборите и сътрудничество в световен мащаб от страх от възмездие. Мета каза през декември, че правителството на САЩ е спряло споделянето на информация с платформата, въпреки че подобни сътрудничества преди това са помогнали на компанията да идентифицира „сложни участници в заплахи“.

Тази токсична смес от по-сложни AI инструменти и по-малко стабилна превенция мерките означава, че това, което експертите описват като сценарий за края на света на дезинформацията - че вирусен неоткриваем дийпфейк ще има катастрофално въздействие върху демократичния процес - вече не е просто теоретично, предупреждават мнозина.

„Мисля, че комбинацията от хаоса, който генеративните AI инструменти ще позволят, и недостатъка на програмите, които платформите разполагат, за да гарантират честността на изборите, е това разгръщащо се бедствие пред очите ни,“ казва ръководителят на една организация с нестопанска цел за дигитални изследвания. „Изключително съм загрижен, че жертвата ще бъде самата демокрация.“

Идеята за онлайндезинформационни войни беше натрапена в общественото съзнание след победата на Доналд Тръмп през 2016 г. президентски избори в САЩ.

Американски служители по-късно откриха доказателства за координирани онлайн усилия на Русия да повлияе на гласуването, при което студенти, разбиращи се в технологиите, бяха наети в базирана в Санкт Петербург „ферма за тролове“, наречена Агенция за интернет изследвания.

>

Докато кампанията остана почти напълно незабелязана от платформите на социалните медии, руската тактика по това време беше груба. Служителите на IRA създадоха групи от фалшиви акаунти и страници и купиха реклама в рубли. Фалшиви личности атакуваха републиканеца Тръмп или неговия съперник от Демократическата партия Хилари Клинтън чрез вулгарни мемета; други се стремяха да предизвикат разделение около теми като расово напрежение, имиграция или права върху оръжията, често на развален английски.

До 2020 г. кампании за дезинформация в социалните медии са действали в повече от 80 държави, според Oxford Internet Институт — организиран по различен начин от политически партии, сенчести връзки с обществеността и разузнавателни групи от частния сектор или самите правителства. Някои започнаха да експериментират с елементарни техники за дълбоко фалшифициране, особено дигитално изобразяване на фиктивни лица.

В отговор Google, Meta, TikTok и X въведоха правила, забраняващи координирани операции за скрито влияние и дезинформация относно гласуването и потискането на избирателите. Google забранява фалшиви медии, свързани с политика и социални въпроси, докато Meta забранява манипулирано съдържание, което е предназначено да подвежда, и позволява на своите проверяващи факти да маркират, ако медиите са „променени“, което го прави по-малко забележимо в емисиите на потребителите.

Но появата на генеративен AI — мощни мултимодални модели, които могат да съчетават текст, изображение, аудио и видео — промени радикално потенциала за дълбоки фалшификати, поставяйки възможността за създаване на убедителни медии в мащаб в рамките на обсега на почти всеки.

Стартъпи за видео генератори като базираната в Лос Анджелис HeyGen и базираната в Лондон Synthesia, обикновено обслужващи индустрии като филми и реклама, позволяват на клиентите да създават видеоклипове с аватари с изкуствен интелект за малко над $20 на месец на бързо развиващ се пазар, който вече струва около половин милиард долара през 2022 г. Също така технологията може да се използва за генериране на новинарски статии, задвижвани от изкуствен интелект, управление на новинарски сайтове, автоматизиране на армии от ботове или дори създаване на чатботове, които могат да бъдат скриптирани в крайна сметка да събуди определено политическо настроение у потребителя.

„2023 наистина беше основата за това, което ще видим [тази] година, когато говорим за манипулирани медии и задвижвани от AI операции за влияние . . . независимо дали са от отделни актьори или може би от национални държавни организации“, казва Брайън Листън, анализатор на разузнаването в кибергрупата Recorded Future.

Deepfake аудио на лидера на опозицията в Обединеното кралство Кийр Стармър, ругаещ помощници, разпространено в първия ден на Лейбъристката партия конференция през октомври. Миналата година YouTube на Google спря няколко акаунта във Венецуела, показващи видеоклипове на водещи на фалшиви новини, които четат дезинформация, която хвърля режима на президента Николас Мадуро в положителна светлина.

Мотивите за кампаниите са различни. Някои са предназначени да променят мнението или да дискредитират кандидатите. Други, както е обичайно в последните руски кампании, се стремят да подкопаят доверието в демокрацията като част от по-широки, по-стратегически геополитически цели. След това има и такива, които просто се опитват да генерират ангажираност и печалба, например чрез рекламни кликвания.

Има и вторични ефекти. Точно както някои политици като Тръмп са превърнали в оръжие концепцията за „фалшиви новини“, като изравняват термина с разкази, с които не са съгласни, така и нарастващата обществена осведоменост за дълбоките фалшификати може да бъде използвана за дискредитиране на истините и отричане на реалността.

Вече плаченето на deepfake е тактика, прилагана от правни екипи в защита на техните клиенти. Миналата година адвокатите на Илън Мъск предположиха, че видеоклип в YouTube на милиардера предприемач, който говори за възможностите на Tesla за самостоятелно управление, може да е дълбок фалшив като част от дело за смъртта на човек, използващ системата. Съдията каза, че това не е основание да се отхвърлят доказателствата, като нарече аргумента „дълбоко обезпокоителен“.

В политическата сфера кандидатите вече имат „способността да отхвърлят вреден аудио или видео материал“, казва Брет Шафер, експерт по пропаганда в Алианса за осигуряване на демокрацията, част от Германския фонд Маршал. - резервоар. Концепцията, известна като „дивидента на лъжеца“, беше очертана за първи път в академична статия от 2018 г., в която се аргументира, че „дълбоките фалшификати улесняват лъжците да избягват отговорността за неща, които всъщност са верни“.

Изследванията показват също, че самото съществуване на deepfakes задълбочава недоверието във всичко онлайн, дори и да е истинско. В политиката „има автократично предимство да се атакува идеята, че има такова нещо като обективна истина“, казва Шафер.

„Можете да накарате хората да кажат: „Гласуването няма значение. Всички ни лъжат. Всичко това е инсценировка. Не можем да контролираме никакви резултати тук.“ Това води до значителен спад и гражданска ангажираност.“

Социалните медийни компании се опитват да създадат парапети за този нов вид дейност.

Както Meta, така и Google наскоро обявиха политики, изискващи кампаниите да разкриват, ако техните политически реклами са били дигитално променени. TikTok изисква синтетични или манипулирани медии, които показват реалистични сцени, да бъдат ясно разкрити чрез стикер, етикет или надпис. Той забранява синтетични медии, които вредят на подобието на реални частни фигури или публична фигура, ако се използват за одобрения, като например измами.

Междувременно X казва, че или ще етикетира, или ще премахне измамни манипулирани медии, когато причиняват вреда, включително причинявайки объркване около политическата стабилност.

Но предотвратява публикуването на този вид медии и споделянето става все по-трудно дори за компании като TikTok и Meta, които са инвестирали във висококачествени възможности за откриване.

Скоростта и реакцията в реално време са ключови. Ако доверието в истинността на един вирусен разказ е нестабилно и платформите реагират бавно, това оставя опасен епистемичен вакуум, казва Айдер, „за недобросъвестни актьори и по-малко скрупулни медии – особено пристрастни медии – да влязат и да запълнят тази празнота с потвърждение.”

Но когато академичните изследователи и екипите за модериране преди това са се фокусирали върху откриването на несъответствия в лица, генерирани от изкуствен интелект, казва Рене Ди Реста, изследователски мениджър в Станфорд, сега те започват отново от нулата с голяма част от най-новите генеративни технологии за изкуствен интелект . „Техниките за откриване на фалшиви лица не са подходящи за по-новите творения на дифузионни модели“, казва тя.

В по-ранни примери за генерирани фалшификати чертите на лицето бяха „подравнени в мрежа“, казва DiResta, и аномалиите бяха по-лесни за забелязване. Днешните човешки дълбоки фалшификати могат да бъдат във всяка поза и да се движат привидно естествено. „Има постоянна враждебна динамика, при която технологията се подобрява преди технологията за откриване. Това е „проблемът с червената кралица“ – бягаме възможно най-бързо, за да останем на едно и също място.“

Експертите са съгласни, че съществуващите инструменти за откриване обикновено не са достатъчно точни, за да действат като надеждна и окончателна защита. „Разликата в процента на откриване е някак навсякъде и има несъответствия“, казва Листън.

Освен това платформите трябва да продължат да прецизират политиките за това как след това да третират тези дълбоки фалшификации, ако те се откриват. „Сваляте ли тези неща? Етикетирате ли го? Намалявате ли обхвата?“ казва Кейти Харбат, служител по глобалните въпроси в Duco Experts и бивш директор по публична политика на Meta.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!